تعهدت أكبر شركات التكنولوجيا في العالم بمحاربة المحتوى "المخادع" الناتج عن الذكاء الاصطناعي والذي يتدخل في الانتخابات العالمية هذا العام، مع تزايد المخاوف بشأن تأثير المعلومات المضللة على الديمقراطية.
كانت Amazon وGoogle وMeta و Microsoft و TikTok وOpemAI من بين 20 شركة تقنية قالت يوم الجمعة 16 فبراير/ شباط خلال مؤتمر ميونيخ للأمن إنها ستعمل معاً لمكافحة إنشاء ونشر المحتوى المصمم لتضليل الناخبين، مثل الصور ومقاطع الفيديو "المزيفة بعمق" والصوت.
ووفقاً للاتفاق الطوعي الذي وقعته الشركات، فإن التطور السريع للذكاء الاصطناعي "يخلق فرصاً جديدة وتحديات للعملية الديمقراطية"، كما أن انتشار المحتوى المخادع يمكن أن "يعرض نزاهة العمليات الانتخابية للخطر"، وفق ما نقلته صحيفة فاينانشال تايمز البريطانيةفي تقرير لها.
نقل التقرير عن رئيس الشؤون العالمية في Meta نك كليغ، قوله: مع إجراء عديد من الانتخابات الكبرى هذا العام، من المهم أن نفعل ما في وسعنا لمنع خداع الناس بالمحتوى الناتج عن الذكاء الاصطناعي (..) هذا العمل أكبر من أي شركة واحدة وسيتطلب جهدًا كبيرًا عبر الصناعة والحكومة والمجتمع المدني."
وأضاف نائب رئيس مجلس إدارة شركة Microsoft ، براد سميث، أن الشركات لديها "مسؤولية المساعدة في ضمان عدم استخدام هذه الأدوات كسلاح في الانتخابات".
ويأتي الاتفاق في سياق المخاوف المتصاعدة بين المشرعين والخبراء بشأن احتمالية تعريض الذكاء الاصطناعي التوليدي للانتخابات رفيعة المستوى المقرر إجراؤها هذا العام، بما في ذلك في الولايات المتحدة والمملكة المتحدة والهند، للخطر.
واجهت شركات التكنولوجيا التي تدير منصات التواصل الاجتماعي الكبرى مثل Facebook وX وTikTok، تدقيقًا لسنوات حول وجود محتوى ضار على مواقعها وكيفية معالجتها.
اقرأ أيضاً: قرار أميركي جديد بشأن «الأصوات المولدة بالذكاء الاصطناعي».. هذه تفاصيله
لكن الاهتمام المتزايد بأدوات الذكاء الاصطناعي التوليدية وتوافرها أدى إلى إثارة المخاوف بشأن الكيفية التي قد تؤدي بها التكنولوجيا إلى تقويض الانتخابات على وجه الخصوص.
في يناير/كانون الثاني، أُرسلت مكالمة آلية إلى الناخبين الأميركيين في نيو هامبشاير يُزعم أنها من الرئيس جو بايدن تدعوهم إلى عدم التصويت في الانتخابات التمهيدية.
وفي العام الماضي، تم العثور على مقاطع مزيفة لسياسيين يُزعم أنها تم إنشاؤها باستخدام الذكاء الاصطناعي ثم انتشرت عبر الإنترنت في المملكة المتحدة والهند ونيجيريا والسودان وإثيوبيا وسلوفاكيا.
وقالت شركات التكنولوجيا العشرين التي وقعت اتفاق يوم الجمعة إنها ستعمل "بشكل تعاوني" على أدوات للقضاء على انتشار محتوى الذكاء الاصطناعي الضار المرتبط بالانتخابات على منصاتها، وستتخذ إجراءات بطرق "سريعة ومتناسبة".
ويمكن أن تشمل الجهود إضافة علامات مائية إلى الصور التي توضح مصدرها وما إذا كانت قد تم تغييرها، على سبيل المثال.
وتعهدت الشركات أيضًا بالشفافية بشأن كيفية تعاملها مع مثل هذا المحتوى المخادع، وقالت إنها ستقيم نماذج الذكاء الاصطناعي التوليدية الخاصة بها - مثل تلك التي تقف وراء برنامج الدردشة الآلي ChatGPT التابع لشركة OpenAI - لفهم المخاطر المتعلقة بالانتخابات التي قد تشكلها بشكل أفضل.
اقرأ أيضاً: بيل غيتس يشرح لماذا ينبغي علينا ألا نخشى من الذكاء الاصطناعي
تعد الاتفاقية الأحدث في سلسلة من الالتزامات الطوعية حول الذكاء الاصطناعي التي تعهدت بها شركات التكنولوجيا الكبرى في الأشهر الأخيرة.
في العام الماضي، وافقت المجموعات بما في ذلك OpenAI، وGoogle DeepMind، وMeta على فتح نماذج الذكاء الاصطناعي التوليدية الخاصة بها للمراجعة من قبل معهد سلامة الذكاء الاصطناعي البريطاني.
هذا الشهر، كجزء من مبادرة الصناعة للانضمام إلى التحالف من أجل مصدر المحتوى والأصالة، قالت Google إنها "تستكشف بنشاط" ما إذا كان يمكنها طرح أدوات العلامات المائية التي توضح كيفية إنشاء الصورة.
وقالت Meta أيضًا في فبراير إنها ستبدأ في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي ينشرها المستخدمون على فيسبوك وإنستجرام وثريدس "في الأشهر المقبلة".
تابعونا على منصات التواصل الاجتماعي